
500万TPM+20msTPOT,火山引擎用「AI云原生」重构大模型部署范式
500万TPM+20msTPOT,火山引擎用「AI云原生」重构大模型部署范式部署 DeepSeek 系列模型,尤其是推理模型 DeepSeek-R1,已经成为一股不可忽视的潮流。
部署 DeepSeek 系列模型,尤其是推理模型 DeepSeek-R1,已经成为一股不可忽视的潮流。
这一波 DeepSeek 的泼天流量,各种大小公司都在吃。为什么,一夜之间,所有产品都在宣传自家接入了 DeepSeek 呢?主要原因是 DeepSeek 官网无法满足全世界人民日益增长的 DeepSeek 使用需求。
DeepSeek 开源周的第三天,带来了专为 Hopper 架构 GPU 优化的矩阵乘法库 — DeepGEMM。这一库支持标准矩阵计算和混合专家模型(MoE)计算,为 DeepSeek-V3/R1 的训练和推理提供强大支持,在 Hopper GPU 上达到 1350+FP8 TFLOPS 的高性能。
知名 Chatbot 及各种 AI 工具箱产品 Monica 最近推出了国内版Monica.cn,基于 DeepSeek R1 与 V3模型,并且具备实时联网搜索与记忆能力。
自 OpenAI 发布 o1-mini 模型以来,推理模型就一直是 AI 社区的热门话题,而春节前面世的开放式推理模型 DeepSeek-R1 更是让推理模型的热度达到了前所未有的高峰。
生物学大模型又迎新里程碑!2025 年 2 月 19 日,来自 Arc Institute、英伟达、斯坦福大学、加州大学伯克利分校和加州大学旧金山分校的科学家们,联合发布了生物学大模型 Evo2。
众所周知,目前 DeepSeek R1 有一个很大的痛点是不支持 Function Call 的。GitHub 上有许多开发者都表达了这一诉求。
嘿,各位开发小伙伴,今天要给大家安利一个全新的开源项目 ——VLM-R1!它将 DeepSeek 的 R1 方法从纯文本领域成功迁移到了视觉语言领域,这意味着打开了对于多模态领域的想象空间!
Sam Altman 又当了一回谜语人。2 月 16 日,他宣布更新了我们的老朋友 GPT-4o,却没说细节。
「医生,你开的这些检查都没有必要,属于『过度检查』。」「谁说没有必要?」「DeepSeek 说的。」最近,有位家属在社交平台上发文表示,孩子在医院接受的部分检查被 DeepSeek 判断为「可能非必要」,于是这位家属认为接诊的医生是在「开过度的检查」,让人「花冤枉钱」。